Bienvenid@s a la tercera tarea del curso Statistical Thinking. Esta tarea tiene como objetivo evaluar los contenidos teóricos de la segunda parte del curso, los cuales se enfocan principalmente en el diseño de experimentos, test de hipótesis y regresión lineal. Si aún no han visto las clases, se recomienda visitar los enlaces de las referencias.
La tarea consta de una parte teórica que busca evaluar conceptos vistos en clases. Seguido por una parte práctica con el fin de introducirlos a la programación en R enfocada en el análisis estadístico de datos.
A continuación, se presentaran diferentes preguntas que abordan las temáticas vistas en clases. Por favor responda cada una de estas de forma breve.
Determine si las siguientes regresiones son lineales para los parámetros \(\beta_{i}\)
\(y(x) = \beta_{0} + \beta_{1} x\)
\(y(x) = \beta_{0} + \beta_{1} x + (\beta_{3}+x)^{3}\)
\(y(x) = \ln(x^{2}+\beta_{0})\)
Respuesta Aquí
Una universidad esta interesada en saber cuantos alumnos gustan del anime, para esto realiza una recopilación de datos y llega a la construcción del siguiente modelo lineal simple:
\[\hat{N°\_de\_fanaticos\_del\_anime}=300+90*numero\_de\_semestres\]
¿Como podemos interpretar el intercepto y pendiente del modelo?, ¿El intercepto y la pendiente tienen una interpretación coherente para cualquier modelo lineal?, si no es así, de un ejemplo.
El modelo lineal nos dice que a medida que avanzan los semestres la cantidad de fanáticos va aumentando según esa regla. En este caso el intercepto es igual a 300, por lo que cuando las personas ingresan a la universidad y han pasado 0 semestres, el número de fanáticos de animé es igual a 300. Por otro lado, la pendiente nos dice la tasa a la cual ocurre el aumento de fanáticos de animé en cada semestre, es decir, luego del primer semestre la cantidad de fanáticos de animé será de 300 + 901= 390, luego del segundo semestre habrán 300 + 902 = 480, de esta manera, al final de la carrera (suponiendo una duración de 12 semestres) habrán 300 + 90*12 = 1.380 fanáticos del animé.
Considere un test con dos muestras no aparejado, explique porque se hace una corrección a los grados de libertad en el test de Welsh.
Al realizar una regresión lineal simple con una variable categórica \((\beta_{0} + \beta_{1} \cdot \text{categroica})\) ¿que interpretación puede obtenerse del coeficiente que acompaña a la variable categórica?
Respuesta Aquí
Discuta la siguiente frase:
" Hacer una regresión lineal mediante máxima verosimilitud requiere tener ciertas hipótesis probabilisticas de los datos, mientras que una regresión realizada mediante mínimos cuadrados no necesita tener ninguna hipótesis probabilista. "
Respuesta Aquí
Explique porque el test de significancia sobre los parámetros de una regresión lineal se realiza bajo la hipótesis nula \(\beta_{H_{0}}=0\).
Respuesta Aquí
¿Que nos dice la equivalencia de la máxima verosimilitud sobre los parámetros que componen una regresión lineal? ¿Qué nos permitirían calcular?
Respuesta Aquí
Consideremos una regresión lineal de una variable. En vez de mínimos cuadrados es posible minimizar la expresión
\[ \displaystyle{\sum_{i=1}^{n}}|y_{i}-\beta_{0}-\beta_{1}x_{i}| \] Explique en que se diferencia con mínimos cuadrados, de una posible ventaja y desventaja de este método (en comparación a mínimos cuadrados).
Respuesta Aqui
Explique porque el coeficiente \(R^2\) tiende a crecer con el numero de variables.
Respuesta Aqui
Un estudio de cáncer realizado por la institución X ha señalado que las personas que beben café poseen mayores probabilidades de padecer algún cáncer pulmonar. El estudio causo un gran revuelo en la población, por lo que una segunda institución ha decidido replicar el experimento, llegando a la conclusión que las personas que toman café tienden a fumar cigarrillos mientras beben esta bebida. Señale que tipo de variable serían los fumadores de cigarrillos en el estudio de cáncer pulmonar y explique cual es la característica de estas variables.
Respuesta Aquí
En la siguiente sección deberá resolver cada uno de los experimentos computacionales a través de la programación en R. Para esto se le aconseja que cree funciones en R, ya que le facilitará la ejecución de gran parte de lo solicitado.
Para el desarrollo preste mucha atención en los enunciados, ya que se le solicitará la implementación de métodos sin uso de funciones predefinidas. Por otro lado, Las librerías permitidas para desarrollar de la tarea 3 son las siguientes:
# Manipulación de estructuras
library(tidyverse)
## ── Attaching packages ─────────────────────────────────────── tidyverse 1.3.1 ──
## ✓ ggplot2 3.3.5 ✓ purrr 0.3.4
## ✓ tibble 3.1.5 ✓ dplyr 1.0.7
## ✓ tidyr 1.1.4 ✓ stringr 1.4.0
## ✓ readr 2.0.2 ✓ forcats 0.5.1
## ── Conflicts ────────────────────────────────────────── tidyverse_conflicts() ──
## x dplyr::filter() masks stats::filter()
## x dplyr::lag() masks stats::lag()
library(dplyr)
library(tidyr)
# Para realizar plots
library(scatterplot3d)
library(ggplot2)
library(plotly)
##
## Attaching package: 'plotly'
## The following object is masked from 'package:ggplot2':
##
## last_plot
## The following object is masked from 'package:stats':
##
## filter
## The following object is masked from 'package:graphics':
##
## layout
# Manipulación de varios plots en una imagen.
library(gridExtra)
##
## Attaching package: 'gridExtra'
## The following object is masked from 'package:dplyr':
##
## combine
En clases se han visto diferentes tipos de test de hipótesis para demostrar una proposición sobre algún parámetro. Uno de los test vistos en clases es el Z-Test, el cual su distribución del test estadístico bajo la hipótesis nula se puede aproximar a una Gaussina. Para la aplicación de este test, resaltan los siguientes puntos:
Para calcular la significancia estadística al igual que con otros métodos esta se debe calcular como:
Luego, dependiendo del objetivo del test tenemos las metodologías one-sample y two-sample. Utilizaremos One-Sample cuando nuestro objetivo es comparar la media de una muestra con la media de la población. El Z-score del One-Sample se define como:
\[Z-score_{One-Sample} = \dfrac{\bar x - \mu}{\dfrac{\sigma}{\sqrt n}}\] Donde \(\bar x\) es la media de la muestra, \(\mu\) es la media de la población, \(\sigma\) es la desviación estándar de la población y \(n\) es el tamaño de la muestra.
Por otro lado, se utiliza Two-Sample cuando queremos comparar la media de dos muestras. El Z-score de Two-Sample se define con la ecuación:
\[Z-score_{Two-Sample} = \dfrac{(\bar x_1 - \bar x_2) - (\mu_1 - \mu_2)}{\sqrt{\dfrac{\sigma_1^2}{ n_1}+\dfrac{\sigma_2^2}{n_2}}}\] Donde \((\bar x_2 - \bar x_1)\) es la diferencia de las medias de la muestra, \((\mu_2 - \mu_1)\) la diferencia de las medias de la población, \(\sigma_{1,2}\) la desviación estándar de la población y \(n_{1,2}\) el tamaño de las muestras.
En la práctica aparece la necesidad de testear múltiples hipótesis (por ejemplo en biología se pueden utilizar múltiples grupos de control o querer estudiar múltiples resultados de un mismo experimento), de esta forma la primera idea es testear individualmente cada una de las hipótesis, el problema de este enfoque es que la probabilidad de que se obtenga al menos un resultado significante crece rápidamente (con un nivel de significancia \(\alpha = 0.05\) y \(20\) test ya se alcanza una probabilidad de \(64\%\) de tener resultados significantes por azar).
Una forma de corregir los inconvenientes del método anterior es utilizar el método de Bonferroni correction quien propone cambiar \(\alpha\) por \(\alpha/m\) (donde \(m\) es la cantidad de test de hipotesis realizados), esto resulta que las probabilidades de rechazar por error se mantengan bajas. De esta forma los p-valores obtenidos en un test de hipótesis y al utilizar Bonferroni correction, quedan dados por el producto de un \(p-valor_{i}\) y la cantidad de test realizados: \(\text{p-valor}_{i}*m\).
El objetivo de esta pregunta es programar la potencia de un test de hipótesis y observar como se comportan las la hipótesis nula v/s la alternativa para un Z-test. Con el desarrollo de este ejercicio, podrán visualizar las diferentes partes que conforman a un test de hipótesis, identificar que es el p-valor y evidenciar como varia la potencia de un test one-sample y two-sample al variar \(\alpha\).
Para recordar; sabemos que en estadística el concepto de potencia viene dado por:
\[Power = 1 - \beta\]
Donde \(\beta\) es la probabilidad de obtener un error de tipo II. Con esto, la potencia estadística viene a representar la probabilidad de rechazar la hipótesis nula cuando esta es falsa. O sea, la potencia de una prueba es la probabilidad de encontrar un resultado positivo dado que este existe. Una de las formas de representar la potencia de un test es a través del siguiente gráfico:
Del gráfico, es posible visualizar que a medida que aumenta la diferencia en la media de la población, se obtienen mayores valores de potencia estadística.
Recordada que es la potencia de un test de hipótesis, a continuación, usted deberá programar una función que sea capaz de obtener la potencia de un Z-test one-sample y two-sample. Para esto por favor considere los siguientes puntos:
function(n1=NULL, sigma1=0.5,
n2=NULL,sigma2=0.5, mu.Ha=0 ,
mu.True=0, alfa=0.05)
De los argumentos, tendremos que: \(n1\) representa la cantidad de datos para la muestra 1, \(sigma1\) es la desviación estándar de la muestra 1, \(n2\) la cantidad de datos para la muestra 2, \(sigma2\) la desviación estándar para la muestra 2, \(mu.Ha\) el mu del test de hipótesis y \(mu.True\) la media de la población real. Notar que la presencia de una segunda muestra solo es para el caso two-sample, para el caso one-sample el argumento de entrada \(n2\) debería ser nulo.
Plot One-Sample
Plot Two-Sample
Para los plots deberían obtener algo similar a las figuras expuestas, donde en los plots se pueden ver las hipótesis que componen el test y el área roja bajo la curva representa la potencia del test.
Codificada la función realice los siguientes experimentos:
\[ n1=16, sigma1=16, mu.Ha=100 , mu.True=Variar, alfa=0.05 \] \[ n1=16, sigma1=16, mu.Ha=100 , mu.True= Variar, alfa=0.01 \] \[ n1=16, sigma1=16, mu.Ha=100 , mu.True= Variar, alfa=0.1 \]
Se le recomienda que la variación se realice a través de un for y grafique las curvas dentro de un mismo gráfico para observar potenciales diferencias entre ellas.
Diseñe un experimento one-sample y visualice cómo se comportan las distribuciones normales de la hipótesis nula y la hipótesis alternativa al variar \(\alpha\).
Diseñe un experimento Two-sample y visualice cómo se comportan las distribuciones normales de la hipótesis nula y la hipótesis alternativa al variar \(\alpha\).
Para el diseño de experimentos y/o comprobación de sus métodos puede serles útiles (no hay problema si decide utilizar los mismos ejemplos):
Respuesta
Inicialmene, se implemente la función power.z.test que permite calcula la potencia de un test de hipótesis.
# Power Function, El esqueleto posee como ejemplo como obtener la potencia de un z-test one-sample.
# Si utiliza este esqueleto deberá comentar la función que cumple cada una de las partes entregadas
power.z.test <- function(n1=NULL, sigma1=0.5,
n2=NULL,sigma2=0.5, mu.Ha=0 ,
mu.True=0, alfa=0.05){
if(is.null(n2)){
# Se calcula Z a partir de la función qnorm
Z = qnorm(1-alfa)
# Se calcula el denominador de la expresión asociada a Z-test
denominador = sigma1/sqrt(n1)
# Se calcula la media muestral a partir de Z
X_bar = Z*denominador + mu.Ha
# Se calcula el numerador de la expresión asociada a Z-test
numerador = X_bar - mu.True
# Se calcula el Z-test
Z = numerador/denominador
# Se calcula la potencia asociada a Z-test
Power = 1 - pnorm(Z)
# Se calculan las distribuciones normales asociadas a los
# valores dados y calculados. En particular, son dos distribuciones:
# una distribución asociada a la media del test de hipótesis y
# otra distribución asociada a la media real de la población
min_lim = min(rnorm(1000, mean=mu.Ha, sd=denominador)) -
round(min(rnorm(1000, mean=mu.Ha, sd=denominador)))%%10
max_lim = max(rnorm(1000, mean=mu.True, sd=denominador)) +
round(max(rnorm(1000, mean=mu.True, sd=denominador)))%%10
# Se grafican las curvas asociadas a las distribucione normales
# calculadas anteriormente
plot <- ggplot(data.frame(x = c(min_lim, max_lim)), aes(x)) +
stat_function(fun = dnorm, args = list(mean = mu.Ha, sd = denominador),
col='red') +
stat_function(fun = dnorm, args = list(mean = mu.True, sd = denominador),
col='blue') +
stat_function(fun = dnorm, args = list(mean = mu.True, sd = denominador),
xlim = c(X_bar,max_lim), geom = "area", fill='red') +
geom_vline(xintercept = X_bar, linetype="dotted", size=1) +
annotate(x=X_bar, y=+Inf,label="alpha", vjust=2, geom="label") +
theme_minimal() +
ggtitle("H0 vs Ha") +
xlab(expression(bar(X))) + ylab("Density")
}
if(!is.null(n2)){
Z = qnorm(1-alfa)
denominador = sqrt((sigma1^2/n1) + (sigma2^2/n2))
X_bar = Z*denominador + mu.Ha
numerador = X_bar - mu.True
Z = numerador/denominador
Power = 1 - pnorm(Z)
#
min_lim = min(rnorm(1000, mean=mu.Ha, sd=denominador)) -
round(min(rnorm(1000, mean=mu.Ha, sd=denominador)))%%10
max_lim = max(rnorm(1000, mean=mu.True, sd=denominador)) +
round(max(rnorm(1000, mean=mu.True, sd=denominador)))%%10
#
plot <- ggplot(data.frame(x = c(min_lim, max_lim)), aes(x)) +
stat_function(fun = dnorm, args = list(mean = mu.Ha, sd = denominador),
col='red') +
stat_function(fun = dnorm, args = list(mean = mu.True, sd = denominador),
col='blue') +
stat_function(fun = dnorm, args = list(mean = mu.True, sd = denominador),
xlim = c(X_bar,max_lim), geom = "area", fill='red') +
geom_vline(xintercept = X_bar, linetype="dotted", size=1) +
annotate(x=X_bar, y=+Inf,label="alpha", vjust=2, geom="label") +
theme_minimal() +
ggtitle("H0 vs Ha") +
xlab(expression(bar(X1)-bar(X2))) + ylab("Density")
}
# Como R no permite retornar dos salidas usamos una lista
# Los resultados se llaman con $plot o $power
return(list(plot=plot,power=Power))
}
Con la implemetanción de la función power.z.test, se implementa la función power_data que permite crear un data frame que relaciona, dado un \(\alpha\), la potencia de un z test respecto a la media real de los datos, es decir, dado un \(\alpha\), se varía el valor de la media real para observar como varía la potencia del z test.
# Plot de gráfico de potencia
power_data <- function(alfa){
values = 90:130
power <- c()
for(i in values){
z <- power.z.test(n1=16, sigma1 = 16, mu.Ha = 100, mu.True = i, alfa = alfa)
power <- append(power, z$power)
}
return(data.frame(x=values, y=power))
}
Así, dado la función power_data, se crea la función plots_power que imprime las curvas de potencia para z tests con distintos valores de \(\alpha\).
plots_power <- function(){
d1 <- power_data(0.01)
d2 <- power_data(0.05)
d3 <- power_data(0.1)
ggplot() +
geom_line(data=d1, aes(x=x, y=y, colour="0.01")) +
geom_point(data=d1, aes(x=x, y=y, colour="0.01")) +
geom_line(data=d2, aes(x=x, y=y, colour="0.05"))+
geom_point(data=d2, aes(x=x, y=y, colour= "0.05"))+
geom_line(data=d3, aes(x=x, y=y, colour="0.1"))+
geom_point(data=d3, aes(x=x, y=y, colour="0.1")) +
guides(fill=guide_legend(title="Valor alfa")) +
scale_colour_manual("Valores de alfa",
breaks = c("0.01", "0.05", "0.1"),
values = c("red", "black", "blue")) +
labs(x="Valor media población", y="Valor potencia", title="Gráfico potencia para un t Test para distintos valores de alpha")
}
Gráfico curvas potencias.
plots_power()
Ahora, para diseñar un experimento one-sample y un experimento two-sided y visualizar cómo se comportan las distribuciones normales de la hipótesis nula y la hipótesis alternativa al variar \(\alpha\), se implementó la función plot_dis permite realizar dicho experimentos.
# Experimentos
plot_dis <- function(n1=16, sigma1=16,
n2=NULL,sigma2=16, mu.Ha=100 ,
mu.True=108){
values = 1:10/100
for(i in values){
z <- power.z.test(n1=n1, sigma1 = sigma1, n2 = n2, sigma2 = sigma2,
mu.Ha = mu.Ha, mu.True = mu.True, alfa = i)
plot(z$plot)
}
return()
}
Para el caso one-sided, se tiene los siguiente gráficos:
one <- plot_dis()
Por el otro lado, ara el caso two-sided, se tiene los siguiente gráficos:
two <- plot_dis(n2=16)
Esta pregunta tiene como objetivo comprender como funciona un test de hipótesis y como deberíamos abordar la realización de múltiples test de hipótesis con datos reales.
La pregunta deberá ser desarrollada utilizando el dataset marketing_campaign.csv. Con esto, deberá programar un Z-test, con el cual estudiará a través de experimentos el Income de personas con los grados académicos Graduation, Master y PhD. Para realizar esto considere la elaboración de los siguientes puntos de forma secuencial:
Graduation, Master y PhD por separado.
Por ejemplo para el caso de Graduation pueden generar estructuras de la siguiente forma:
| ID | Graduation |
|---|---|
| 5524 | 58138 |
| 2174 | 46344 |
| 4141 | 71613 |
| 6182 | 26646 |
| 965 | 55635 |
| … | … |
Donde los valores en la fila de Graduation representan los sueldos de las diferentes personas que conforman el dataset. Un punto importante a considerar es que los datos para los diferentes grados académicos poseen diferentes numero de datos (no se asusten por esto).
Programar el método Z-test con la metodología one sample y two sample, obteniendo los p-valores a través de las alternativas one-sided y two-sided. Para el caso de one-sided, cree una función capaz de obtener la cola menor y mayor de la gaussiana.
El calculo de las diferentes alternativas para calcular los p-valores deberá ser un argumento de su función, donde señalando ‘menor’,‘mayor’ (para los casos one-sided) y ‘two-sided’ deberá obtener el valor pertinente para cada caso.
Genere una función que permita realizar solo múltiples test del tipo two-sample y aplique bonferroni correction a los p-valores obtenidos. Notar que los múltiples test deberá realizar la comparación entre todos los elementos de entrada, por ejemplo si deseamos comparar los ingresos de Graduation, Master y PhD, se deberían comparar los ingresos de Graduation v/s Master, Graduation v/s PhD y Master y PhD
Codificada las funciones, realice los siguientes experimentos con su función de test de hipótesis:
Compruebe si la media de los ingresos para la variable Graduation es similar a 52000. Señale formalmente este experimento y obtenga los p-valores para las alternativas one-sided y two-sided.
Compruebe si la diferencia entre los ingresos de las personas con el grado académico Graduation es cercana a cero en relación a la recibida por los Master y PhD. Para este punto utilice la función que le permite realizar múltiples test del tipo two-sample.
Para los diferentes experimentos considere que la desviación estandar de la población para los diferentes income son los siguientes:
\[\sigma_{Graduation} = 28180\] \[\sigma_{Master} = 20160\] \[\sigma_{PhD} = 20615\]
Respuesta:
Inicialmente, se formatea la data para que sea apta para los test de hipótesis.
df = read.csv('marketing_campaign.csv', sep='\t')
# grad
grad = df[df$Education == "Graduation", ]
grad = grad[c("ID", "Income")]
grad = na.omit(grad)
master = df[df$Education == "Master", ]
master = master[c("ID", "Income")]
master = na.omit(master)
phd = df[df$Education == "PhD", ]
phd = phd[c("ID", "Income")]
phd = na.omit(phd)
Se implementa la función z_test con la metodología one sample y two sample, permitiendo obtener los p-valores a través de las alternativas one-sided y two-sided.
# Implementación de Z-test one-sided y two-sided
# Puede utilizar este esqueleto
z_test <- function(data1=NULL, sigma1=0.5, data2=NULL, sigma2=0.5,
mu.Ha=0, test.type = c('one-sided','two-sided'),
verbose=TRUE){
if(length(test.type)>=2){
print("Por favor escoge un tipo de Test: ´one-sided´ o ´two-sided´ ")
return()
}
else if(length(test.type)==1 && !(test.type %in% c('menor','mayor','two-sided'))){
print("Por favor escoge un tipo de Test: ´menor´, ´mayor´ o ´two-sided´")
return()
}
else if(is.null(data2)){
n = nrow(data1)
x_bar = mean(data1$Income)
se <- sigma1/sqrt(n)
Z_score <- (x_bar- mu.Ha)/se
# P-value
if(test.type=='menor'){
p_value <- 1 - pt(Z_score, df = n-1)
}
else if(test.type=='mayor'){
p_value <- pt(-Z_score, df = n-1)
}
else if(test.type=='two-sided'){
p_value <- 2*pt(-abs(Z_score), df = n-1)
}
# Texto de Salida
if(verbose){
cat("\tOne-sample Z-Test:\n\nData analizada:",
deparse(substitute(data1)), "\nZ=", Z_score,
"P-value=", p_value, "\n\n",sep=" ")
}
return(p_value)
}
else if(!is.null(data2)){
# Hypothesis test
n1 = nrow(data1)
n2 = nrow(data2)
x1_bar = mean(data1$Income)
x2_bar = mean(data2$Income)
se1 <-(sigma1^2)/n1
se2 <-(sigma2^2)/n2
Z_score <- (x1_bar- x2_bar - mu.Ha)/sqrt(se1 + se2)
up <- (se1 + se2)^2
down <- (se1^2)/(n1-1) + (se2^2)/(n2-1)
df <- up/down
# p-value
if(test.type=='menor'){
p_value <- 1 - pt(Z_score, df = df)
}
else if(test.type=='mayor'){
p_value <- pt(-Z_score, df = df)
}
else if(test.type=='two-sided'){
p_value <- 2*pt(-abs(Z_score), df = df)
}
# Texto de Salida
if(verbose){
cat("\tTwo-sample Z-Test:\n\nData analizada:",
deparse(substitute(data1)),"y",
deparse(substitute(data2)), "\nZ=",
Z_score, "P-value=", p_value, "\n\n",sep=" ")
}
return(p_value)
}
}
Ahora, dada la función z_test se puede comprobar si la media de los ingresos para la variable Graduation es similar a 52000. En particular, definiendo la hipótesis nula \(H_{0}: \mu = 52000\) y la hipótesis alternativa \(H_{1}: \mu \geq 52000\), se tiene que el z test al \(5\%\) es el siguiente:
p_grad_less <- z_test(data1=grad, sigma1=28180, mu.Ha=52000, test.type = 'mayor', verbose=TRUE)
## One-sample Z-Test:
##
## Data analizada: grad
## Z= 0.8539824 P-value= 0.1966491
Dado que el p valor obtenido es mayor que \(0.05\), no existe evidencia estadística para rechazar la hipótesis nula.
Por el otro lado, de forma homóloga, definiendo la hipótesis nula \(H_{0}: \mu = 52000\) y la hipótesis alternativa \(H_{1}: \mu \leq 52000\), se tiene que el z test al \(5\%\) es el siguiente:
p_grad_less <- z_test(data1=grad, sigma1=28180, mu.Ha=52000, test.type = 'menor', verbose=TRUE)
## One-sample Z-Test:
##
## Data analizada: grad
## Z= 0.8539824 P-value= 0.1966491
Nuevamente, dado que el p valor obtenido es mayor que \(0.05\), no existe evidencia estadística para rechazar la hipótesis nula.
Finalmente, para el caso two-sided definiendo la hipótesis nula \(H_{0}: \mu = 52000\) y la hipótesis alternativa \(H_{1}: \mu \neq 52000\), se tiene que el z test al \(5\%\) es el siguiente: `
p_grad_less <- z_test(data1=grad, sigma1=28180, mu.Ha=52000, test.type = 'two-sided', verbose=TRUE)
## One-sample Z-Test:
##
## Data analizada: grad
## Z= 0.8539824 P-value= 0.3932982
Dado que el p valor obtenido es mayor que \(0.05\), no existe evidencia estadística para rechazar la hipótesis nula.
Por tanto, dado los tests realizados, se puede comprobar que la media de los ingresos para la variable Graduation es similar a 52000.
Siguiendo el desarrollo del enunciado, z.test.multiple_testing que permite realizar solo múltiples test del tipo two-sample.
z.test.multiple_testing <- function(list_data, sigma_data, mu.Ha = 0){
p_values <- c()
for (i in 1:(length(list_data)-1)){
for(j in (i+1):length(list_data)){
p <- z_test(data1=list_data[[i]], data2=list_data[[j]], sigma1=sigma_data[i],
sigma2=sigma_data[j], mu.Ha= mu.Ha, test.type = 'two-sided', verbose=FALSE)
p_values <- append(p_values, p)
}
}
return(p_values)
}
Para comparar si los ingresos entre Graduation, Master y PhD es cercana a 0, el siguiente bloque de código permite realizar los z tests correspondientes.
list_data <- list(grad, master, phd)
list_sigma <- c(28180, 20160, 20615)
p_values <- z.test.multiple_testing(list_data, list_sigma)
En particular, para el test donde la hipótesis nula es $H_{0}: {Graduation} - {Master} = 0 $ y la hipótesis alternativa es \(H_{1}: \mu_{Graduation} \neq \mu_{Master}\), se tiene el siguiente p valor.
p_value_grad_master <- p_values[1]
p_value_grad_master
## [1] 0.8840011
Del mismo modo, el p valor corregido para dicho test es:
p_value_grad_master*2
## [1] 1.768002
Así, dado el test a \(5\%\), se tiene que no existe evidencia estadística para rechazar la hipótesis nula, es decir, el ingreso entre las personas con el grado académico Graduation y las personas con el grado académico Master es cercano a 0.
Por el otro lado, para el test donde la hipótesis nula es $H_{0}: {Graduation} - {PhD} = 0 $ y la hipótesis alternativa es \(H_{1}: \mu_{Graduation} \neq \mu_{PhD}\), se tiene el siguiente p valor.
p_value_grad_phd<- p_values[2]
p_value_grad_phd
## [1] 0.006785511
Del mismo modo, el p valor corregido para dicho test es:
p_value_grad_phd*2
## [1] 0.01357102
Así, dado el test a \(5\%\), se tiene que existe evidencia estadística para rechazar la hipótesis nula, es decir, el ingreso entre las personas con el grado académico Graduation y las personas con el grado académico Master no es cercano a 0, es decir, existe una diferencia estadísticamente significativa entre el ingreso de las personas con el grado académico Graduation y las personas con el grado académico Master.
El objetivo de este problema es estudiar como realizar múltiples test de hipótesis simultáneamente. Para esto en primer lugar se estudiara el método “intuitivo”, donde veremos sus limitantes y se comparará con el método llamado Bonferroni correction, posteriormente se realizará un estudio practico con el dataset ratones.csv.
Un investigador se ha colocado en contacto con ustedes señalándoles que realiza diariamente test de hipótesis entre las muestras que toma día a día en su laboratorio. Con esto, al investigador le urge saber si realizar multiples test de hipótesis sin una corrección podría afectar la toma de decisiones. Para comprobar esto, les solicita comprobar matemáticamente como se comporta la probabilidad de obtener al menos un resultado significativos al azar de sus experimentos diarios. Para esto, les señala que la la probabilidad de obtener un experimento por azar puede ser simulado a través de los casos exitosos de una binomial (valores mayores a cero), donde el numero de observaciones son la cantidad de experimentos (\(m\)) y la probabilidad queda dada por \(\alpha\) del test.
A continuación, se entregan unas indicaciones mas especificas para desarrollar la pregunta:
Respuesta Aquí:
Para calcular la probabilidad empírica de los experimentos, se implemento la función probEmpirica que permite calcular dicha probabilidad.
probEmpirica <- function(alpha, m, bonfe = FALSE){
n <- 100 # Cantidad de veces que se va a repetir el experimento para estimar la probabilidad, pueden cambiar este valor si lo desean
res <- rbinom(n, m, alpha)
# Puede agergar todo el codigo que estime conveniente para calcular la probabilidad empirica
if(bonfe){
res <- rbinom(n, m, alpha/m)
}
else{
res <- rbinom(n, m, alpha)
}
prob <- length(res[res>0])/n
return(prob)
}
Ahora, dado la función probEmpirica, se quiere observar como varía la probabilidad real y la probabilidad empírica en relación a la cantidad de experimentos realizados. La función plot_probs permite graficar dichas curvas.
plot_probs <- function(n, alpha, bonfe = FALSE){
probs_emp <- c()
probs_real <- c()
if(bonfe){
probs_emp_bonfe <- c()
probs_real_bonfe <- c()
}
for(i in 1:n){
p1 <- probEmpirica(alpha, i)
p2 <- 1 - (1-alpha)^i
probs_emp <- append(probs_emp, p1)
probs_real <- append(probs_real, p2)
if (bonfe){
p3 <- probEmpirica(alpha, i , bonfe = bonfe)
p4 <- 1 - (1-alpha/i)^i
probs_emp_bonfe <- append(probs_emp_bonfe, p3)
probs_real_bonfe <- append(probs_real_bonfe, p4)
}
}
d1 = data.frame(x=1:n, y=probs_emp)
d2 = data.frame(x=1:n, y=probs_real)
plot <- ggplot() +
geom_line(data=d1, aes(x=x, y=y, colour="Empírica sin correción")) +
geom_line(data=d2, aes(x=x, y=y, colour="Real sin correción"))
if (bonfe){
d3 = data.frame(x=1:n, y=probs_emp_bonfe)
d4 = data.frame(x=1:n, y=probs_real_bonfe)
plot <- plot +
geom_line(data=d3, aes(x=x, y=y, colour="Empírica con correción")) +
geom_line(data=d4, aes(x=x, y=y, colour="Real con correción")) +
guides(fill=guide_legend(title="Tipo probabilidad")) +
scale_colour_manual("Tipo de probabilidad",
# breaks = c("Empírica sin corrección", "Real sin correción","Empírica con corrección", "Real con correción"),
values = c("red", "blue", "black", "green")
)
}
else{
plot <- plot +
guides(fill=guide_legend(title="Tipo probabilidad")) +
scale_colour_manual("Tipo de probabilidad",
breaks = c("Empírica sin correción", "Real sin correción"),
values = c("red", "blue"))
}
plot <- plot +
labs(x="Valor m (cantidad experimentos)", y="Probabilidad de obtener \n al menos un experimento exitoso", title=paste("Probabilidades del evento con alfa = ", alpha))
return(plot)
}
Para el caso sin corrección, se tiene que las curvas mencionadas son la siguientes:
plots_no_bonfe <- plot_probs(500, 0.05, bonfe = TRUE)
plot(plots_no_bonfe)
Dado el gráfico, se tiene que, en primer lugar, la curva asociada a la probabilidad real es similar a la curva asociada a la probabilidad empírica. Asimismo, se puede notar que, a medida que crece la cantidad de experimentos realizados, tanto la probabilidad real como la probabilidad empírica tienden a \(1\). En particular, para \(m \geq 100\) se tiene que ambas probabilidades con tienden a 1. Asímismo, se tiene que para \(m \geq 20\), ambas probabilidades son mayores al \(50\%\) y, por tanto, existe mayor probabilidad de tener un experimento exitoso por azar y, por tanto, se obtendrían resultados estadísticos significativos por mero azar (lo que es algo que, evidentemente, no se quiere obtener en un experimento).
Nótese que al aumentar el valor de \(\alpha\) se tiene el siguiente comportamiento:
plots_no_bonfe <- plot_probs(500, 0.1)
plot(plots_no_bonfe)
Del gráfico anterior se observa que, al aumentar \(\alpha\), se necesita una cantidad menor de experimentos para lograr que ambas probabilidades tiendan a 1.
Ahora, las curvas con correción son las siguientes:
plots_no_bonfe <- plot_probs(500, 0.05, bonfe = TRUE)
plot(plots_no_bonfe)
Nótese que con la correción de Bonferroni se tiene que las probabilidades se mantenienen constantes respecto a la cantidad de test realizados. Por tanto, se tiene que la correción de Bonferroni mejora los resultados dado que ambas probabilidades ya no depende de la cantidad de experimentos y, en consecuencia, con la correción ya no se obtendrían resultados estadísticos significativos por mero azar.
data <- read.csv("ratones.csv",sep= ";", stringsAsFactors = T)
data
El objetivo de la siguiente pregunta es aplicar los conceptos de regresión lineal vistos en clases para implementar desde cero un función capaz de realizar una regresión simple y múltiple.
Para este problema, ustedes deberán estudiar el comportamiento de los clientes de un holding de salud. Para esto, se les hace entrega del dataset insurance.csv para que estudien la creación de un modelo lineal con sus datos. Antes de comenzar a trabajar, se señalan las diferentes variables que componen al dataset:
Es importante que considere que cada una de las filas representa un cliente distinto para el holding.
Dentro del estudio, el holding de salud le solicita estudiar los comportamientos de los clientes fumadores y no fumadores, por lo que se le aconseja separar el dataframe original en fumadores y no fumadores. En el estudio, realicen un modelo lineal que tiene como variable de respuesta a charges y los datos que mejor se correlacionan para los clientes fumadores y no fumadores. Para esto, deberán realizar las siguientes actividades:
charges.lm(), ya que esto le servirá para observar si la regresión lineal es significativa.Nota: No esta permitido utilizar comandos que obtengan los valores solicitados directamente a menos que se le permita en la pregunta.
lm_reg <- function(X, Y){
}
A work by CC6104